#設計 AI
Fortune雜誌—彼得·提爾警告:人工智慧對這類崗位的威脅更大
2010年代,程式設計成為就業市場上最炙手可熱的技能之一,熱潮迅速席捲全美,家長們紛紛敦促孩子放棄英語專業,轉而攻讀科學、技術、工程和數學(以下簡稱STEM)學位。就連美國前總統貝拉克·歐巴馬也呼籲人們學習程式設計,他更是成為首位參與“程式設計一小時”(Hour of Code)活動[這項線上活動旨在推廣電腦科學教育周(Computer Science Education Week)]的總統,還親自編寫了一行程式碼。然而這一現象的另一面,是英語與文科專業遭到質疑,有人戲稱這些專業是“咖啡師學位”,認為攻讀這類專業的人職業發展空間有限,最終只能在咖啡店打工。但人工智慧的崛起,正在顛覆這些固有認知。至少Palantir聯合創始人、億萬富翁彼得·提爾(Peter Thiel)是這麼認為的。在一段2024年錄製、近期重新走紅的採訪視訊中,提爾在與經濟學家泰勒·考恩對話時表示,STEM領域從業者的就業紅利正在消退。他說:“比起文字工作者,學數學的人的處境要糟糕得多。”彼得·提爾,PayPal與Palantir Technologies聯合創始人。圖片來源:Marco Bello—Getty Images故事講述者在就業市場炙手可熱這位億萬富翁的觀點反映了當下勞動力市場的新趨勢。領英(LinkedIn)2月早些時候發佈的《2026年領英技能趨勢:美國增長最快的技能》(LinkedIn Skills on the Rise 2026: The Fastest-Growing Skills in the U.S.)報告顯示,溝通能力和創造性思維的需求正在持續攀升。該報告稱,溝通能力、領導力及人員管理能力已經成為當今勞動力市場最搶手的技能。領英的一位發言人告訴《財富》雜誌:“企業越來越青睞溝通能力強的人才,因為出色的寫作能力、清晰的表達能力和判斷力依然至關重要。”他們指出,如今“講故事”已經成為一項尤為搶手的技能。“在過去一年裡,領英上提及‘講故事者’的招聘啟事數量翻倍。”事實上,部分企業為招募故事講述者和高級公關專家開出的年薪甚至超過100萬美元。例如,Anthropic公司正在招聘一名公關主管,起薪為40萬美元;而Netflix為高級公關總監開出的薪酬範圍在65.6萬美元至120萬美元之間。當然,這份報告並不意味著你可以直接撕掉STEM學位證書。領英還發現,當下市場同樣有不少熱門技術技能,包括人工智慧提示工程和資料標註。不過,這些技能與STEM學位的核心內容有所不同,因為它們側重於訓練人工智慧,而非建構人工智慧。儘管部分人工智慧提示工程師的崗位要求應聘者具備程式語言知識(包括Python和JavaScript)以及大型語言模型相關背景,但這些招聘啟事也強調,應聘者需要具備出色的語言能力和創造力,以最佳化人工智慧的輸出結果。據求職平台Glassdoor的資料,該崗位的平均年薪為12.8萬美元。隨著人工智慧技術的不斷發展,許多領導者和人工智慧專家預測,人工智慧將徹底重塑就業市場,同時也將顛覆職場中最被看重的能力。在此背景下,數學及其他STEM領域的部分技能可能面臨淘汰風險。Anthropic公司Claude Code的開發者鮑裡斯·切爾尼坦言,自去年11月以來,他未曾編寫過一行程式碼(儘管仍然會檢查人工智慧編寫的程式碼)。與此同時,人工智慧正在持續侵入原本由STEM專業人士主導的領域,包括基礎程式設計與資料分析。勞動力市場的動盪紐約聯準會(New York Federal Reserve)的最新資料顯示,近年來應屆大學畢業生面臨的就業形勢尤為嚴峻——2022年,應屆大學畢業生的失業率已經超過勞動者整體失業率,到2025年,這一比例已經攀升至5.6%——部分STEM相關專業的失業率尤為突出。電腦工程專業是失業率第二高的專業,失業率達到7.8%,僅次於人類學專業。但部分STEM專業畢業生的失業率仍然低於大學畢業生3.1%的整體平均水平,比如航空航天工程專業和工程技術專業畢業生的失業率分別為2.2%和1.7%。然而在2024年的訪談中,提爾指出,即使在當前尚未被人工智慧自動化衝擊的STEM領域,隨著人工智慧的發展,將數學技能作為準入門檻的做法也將逐漸過時。“若想進入醫學院,我們通過物理和微積分篩選人才。”他說,“作為神經外科醫生,我可不希望給我做腦部手術的人在手術時還在腦子裡分解質因數。”(財富中文網)
龍蝦之父新訪談,OpenClaw內幕全公開!“攔不住濫用,只勸大家別玩火”
不是,這才加入OpenAI幾天啊,龍蝦之父Peter Steinberger這波發言屬實猛了些啊!在OpenAI的最新訪談中,他聊創業、聊OpenClaw、聊龍蝦濫用和安全問題,那叫一個「實誠」。實誠到什麼程度呢?人家Peter可摸著良心說了說實在的啊,我平時連程式碼都很少看……大多數程式碼都挺無!聊!的!(Big膽)而整場對話聽下來,有幾個判斷尤其值得玩味,我幫大家梳理了一下——Peter創業13年後精力耗盡退隱,結果被Claude Code一小時原型直接「打臉」重燃。Peter直言沒法兒阻止大家濫用OpenClaw,只能儘可能讓大家別自毀前程。OpenClaw已經有2000個PR,有些PR更像是prompt request,程式碼靠後,意圖靠前。程式碼不必百分百符合審美,關鍵是方向對,如果真出現性能問題,再專門去最佳化。下面這位網友看完這個採訪憋不住了,直言:Peter太親民兒了啊,這到了OpenAI咋適應啊..(doge以下為本場訪談重點內容實錄,圍繞核心觀點做了摘選整理,部分文字在不改變原意的基礎上做了適度刪改~從13年老創業人,到龍蝦時刻上頭龍蝦之父第一次被AI程式設計“打臉”Q:你做PSPDFKit連續拼了13年,後來停了一段時間,是啥原因讓你又回來創業了?Peter Steinberger:是的,確實是連續13年高強度運轉。第一次創業,我也不懂怎麼給自己降壓,只能停下來放鬆一下,那段時間我會關注AI的進展,早期看到GPT Engineer覺得挺酷,但沒真正被打動。直到狀態恢復了些,我開始親手試,真正震住我的是我把一個做了一半就丟下的項目打包成一個大Markdown檔案,讓模型先寫規格,再交給Claude Code去建構。那時候比現在粗糙很多,它還跟我說“我已經100%量產可用”,我一試就崩了。於是我接了自動化測試工具,讓它把登錄那套做出來、一路驗收,大概一小時後,居然真的跑通了。雖然程式碼質量一般吧,成品程式碼很爛,但對我來說,流程層面的衝擊太大了——可能性一下子鋪開,我起了「雞皮疙瘩」。從那天起我幾乎睡不著, 因為腦子裡全是:以前想做卻做不了的東西,現在都能做了,然後我就徹底鑽進去了。一條語音,讓OpenClaw真正活了Q:過去9到10個月,我看你的GitHub有四十多個項目,能講講這些想法是怎麼一路匯到OpenClaw裡的嗎?Peter Steinberger:說實話,我也希望當初有一個宏大的藍圖,但真實情況更像一路試出來的。最初我只是想做一個能讀我聊天記錄、替我處理事情的工具,原型做出來了,域名也買了,但我以為大實驗室很快會做,我就等一等,把注意力放去別的方向。那段時間我做了很多實驗,目標很簡單——玩得開心,也激勵別人。到了十一月,我做了幾個版本,沒有一個讓我真正滿意,我開始疑惑:為什麼那些大實驗室還沒做出來?他們到底在幹嘛?於是我做了後來變成OpenClaw的第一個版本,到現在名字已經換到第五個。當時產品還沒完全成熟,只是覺得很酷,第一個原型大概一小時就做出來了,因為很多東西現在可以直接催出來。真正讓我徹底上頭的,是在馬拉喀什的一次周末旅行。當時網路不穩定,但聊天軟體在那都能用,我用它翻譯圖片、找餐廳、查電腦裡的東西,我給朋友演示,讓它替我發消息,朋友立刻說想要。後來有個更離譜的瞬間,我發了一條語音,居然出現了「正在輸入」,這本來不該能跑通,結果它真的回覆了,我問它怎麼做到的,它說:你發的是個沒後綴的檔案,我看了檔案頭,是Opus編碼,用電腦裡的工具轉換,想轉寫卻發現本地沒裝工具,於是找到環境裡的金鑰,用命令列把音訊發出去,再把文字拿回來。我當時人都傻了,這就是當你把工具和電腦存取權交給智能體之後的力量,流程沒寫死,它也能自己走通。那年十一月和十二月我完全上癮了,雖然網上反響冷淡,但每次給朋友演示,他們都想要,我卻總說還沒準備好。於是我做了件更瘋狂的事:建了個Discord,把機器人直接丟進去,那時沒有沙盒,也沒安全措施,我基本是用OpenClaw建構OpenClaw,再用它偵錯自己。我問模型:你看到這個工具了嗎?它說沒有。我說那你去看你自己的原始碼,它真的去做了,大家看到這個過程後,才真正明白它在幹什麼。我沒有給它全部內容,但給了不少記憶類資訊,我盯得很緊,因為提示注入問題還沒完全解決,新一代模型確實更穩。我放了一個金絲雀檔案,定義價值觀和對齊原則,檔案不公開,但很多人想拿到,有人試圖通過提示注入獲取它,貼上大段程式碼,模型直接拒絕,有時還會嘲諷對方,儘管如此,我仍然不完全放心。第一晚熱度很高,我關掉它去睡,醒來發現800條消息,它全都回覆了,原來系統有自動重啟服務,我以為關掉了,它五秒後又自己啟動,後來我加了沙盒,把它關進更小的容器裡,它甚至把自己的Mac Studio起名叫城堡。怎麼說呢,感覺這些模型真的很會找方法!PR變了味:程式碼靠後,意圖靠前Q:我很好奇,你那兒來的這麼多的好點子?Peter Steinberger:我覺得關鍵在於,現在把想法變成現實的門檻低了很多。那怕我找到一個開源工具,只能解決70%的問題,我也會直接把剩下的30%自己補上,這放一年前都不現實, 現在我只要給提示,它就在電腦螢幕上跑起來。Q:你對程式碼價值的看法,也改變了你處理開放原始碼的方式,OpenClaw已經有2000個PR(Pull Request),你說過有些PR更像是prompt request,是否意味著意圖比程式碼本身更重要?Peter Steinberger:現在審PR和以前不一樣了,有時候認真看完一個PR,比我自己重寫還費時間。我對陌生貢獻者會更謹慎,因為不確定他們是否理解整個系統,相反,我默認模型沒有惡意,只是理解可能偏了。所以我審PR的第一步,不是逐行看程式碼,而是先搞清楚:它想解決什麼問題?所以對我來說,意圖比寫法重要,很多人給的是局部解法,但真正難的是,這個功能放進現有架構後會產生什麼影響。我會和模型討論十幾分鐘,判斷這是架構問題、實現細節問題,還是隻影響某個平台,甚至要不要做成通用能力,方向確定後,我才處理程式碼、分支和合併。即使花的時間更多,我也會保留貢獻者署名,因為他們帶來的往往是好想法。OpenClaw的下一道門檻:安全性Q:你現在對OpenClaw的願景是什麼?你也會把自己看作「個人AI智能體形態」的開拓者嗎?Peter Steinberger:我想找到一個平衡:既能讓我媽也裝得起來,又要足夠有趣、能折騰,這其實很難。很長一段時間,我的默認安裝方式就是克隆、建構、運行,原始碼直接在你硬碟上,Agent在原始碼裡工作,也理解原始碼。如果你不喜歡某塊邏輯,直接對它說後它甚至能自我最佳化,這也讓很多從沒提過PR的人開始參與,他們缺的往往不是想法,而是長期維護軟體的經驗,所以他們更多是把意圖遞過來。同時,OpenClaw「安全性」的問題也讓人很頭疼,比如我有個網頁服務,最初只是偵錯工具,默認只在可信網路裡用。我留了配置選項,是為了應對複雜網路環境,結果有人直接把它暴露到公網,我在文件裡反覆強調不要這麼做,但還是有人這麼做。安全研究者會指出它缺少公網等級的限制,我只能說它原本就不是按公網設計的,但既然能被這樣配置,風險評級自然會上升。我確實糾結過這件事,後來我拉了一位安全專家進來,這是現在的重點,我無法阻止別人用它去做原本沒計畫支援的事,所以更現實的做法是儘量相容這些用法,同時幫大家避開明顯的坑。這就是開放原始碼的魅力,人們會拿它做出你完全沒想到的東西,既美妙,也有點瘋狂。程式碼時代正在退場,生產力正在暴走Q:我今天早上又看了你的GitHub,過去一年你在120多個項目裡貢獻了很多,活躍圖一開始很淺,十月、十一月變得很深,發生了什麼?Peter Steinberger:是因為我後來換到了Codex。變化不只是模型更聰明,整套工具也更順手了,我自己也更懂怎麼把它塞進日常工作流。很多人說試過AI不好用,我更傾向於覺得方法沒跟上,這玩意兒真的是門手藝,需要練,我現在大概能判斷什麼提示會有效、多久能出結果。如果拖太久,我會想是不是架構有問題、拆解不對,或者方向偏了,那種感覺跟寫程式碼卡殼時很像。至於配置,我也踩過坑,我把那個階段叫“智能體陷阱”——各種折騰配置,看起來很高級吧,但其實效率沒變,現在我反而很簡單,把它當成一個能交流的搭子,直接說我要什麼,然後問一句:你有沒有問題?模型會自己腦補前提,讓它先提問能少走很多彎路。每次新會話它幾乎都是白紙,你得自己有全域,再帶著它去看重點,我的做法一直很樸素:別搞太多花活,專注問題本身,項目越大,越能拆成互不干擾的模組平行推進,反而更好做。Q:你說過你現在幾乎都不讀程式碼,能否談談這個問題?Peter Steinberger:說實話,大多數程式碼本來就挺無聊的。很多隻是資料結構轉換、把結果展示給使用者,我對它生成的內容有足夠的理解就夠了,我腦子裡的心理模型大致能對上它寫出來的東西。以前我帶團隊,也要接受工程師寫的程式碼不可能完全像我想的那樣,現在也是一樣。我會調整程式碼庫,讓Agent更好發揮,這和為人類工程師最佳化不完全一樣,程式碼不必百分百符合我的審美,關鍵是方向對,如果真出現性能問題,再專門去最佳化。Q:你覺得當下做東西最有趣的點是什麼?Peter Steinberger:有意思的是,整個工具鏈都在變,開發者這件事本身的定義也在變。理論上,任何人都能把想法做出來,我剛開始用這些新工具時,真的有種多巴胺飆升的感覺。我最早用Claude Code,那時它成功率可能只有三四成,但對我來說已經足夠震撼了,因為我突然意識到,我可以去做任何東西。軟體依然複雜,但你的速度快太多了。Q很多舊金山以外的開發者還沒真正擁抱Code和Agent工具。你會給他們什麼建議?Peter Steinberger:最大的建議就是,用玩的心態去接近它,去做那個你一直想做卻沒做的項目。如果你是那種有行動力、願意動手、腦子轉得快的人,現在是非常好的時代。真正拉開差距的,是誰更會用這些工具,對那些願意擁抱新工具、保持好奇心、把想法快速變成現實的建造者來說,機會比以前大得多。我覺得接下來一年會變化很快,2026會特別有意思。 (量子位)
Google發佈「AlphaFold 4」,不再開源!性能碾壓上一代
【新智元導讀】Google旗下的 Isomorphic Labs 發佈新一代 AI 藥物設計引擎 IsoDDE,性能全面碾壓 AlphaFold 3,能在幾秒內發現科學家花 15 年才找到的隱藏結合位點。但與開放原始碼的 AlphaFold 不同,IsoDDE 選擇完全閉源,程式碼、論文、方法均不公開。AI 造福科學的開源黃金時代,可能正走向終結。Google旗下的同樣由 DeepMind CEO Demis Hassabis 擔任 CEO 的 Isomorphic Labs 發佈了被 Nature 稱為「AlphaFold 4」的新一代 AI 藥物設計引擎 IsoDDE。它全面碾壓前代,卻選擇完全閉源。AI 造福科學的黃金時代,可能正在關上大門。2024 年,Demis Hassabis 因為 AlphaFold 站上諾貝爾領獎台。這個能預測蛋白質三維結構的 AI 模型,被 190 多個國家超過 300 萬研究者使用,堪稱 AI 惠及全人類的標竿案例。諾貝爾委員會嘉獎的,與其說是一個演算法,不如說是一種精神——把最強大的科學工具免費交到每一個研究者手中。16 個月後,AlphaFold 的繼承者亮相了。2 月 10 日,Hassabis 創辦的 AI 製藥公司 Isomorphic Labs 發佈了 27 頁技術報告,展示一套名為 IsoDDE 的藥物設計引擎,性能全面碾壓 AlphaFold 3,被哥倫比亞大學計算生物學家 Mohammed AlQuraishi 評價為「AlphaFold 4 等級的重大進步」。https://storage.googleapis.com/isomorphiclabs-website-public-artifacts/isodde_technical_report.pdf但這一次,程式碼不會公開,論文不會發表,方法不會共享。Isomorphic Labs 總裁 Max Jaderberg 對 Nature 說得很直白:我們不打算公開「秘方」。AlphaFold 的開源傳奇,很可能到第三代就是終點了。能力確實強得嚇人先說 IsoDDE 做到了什麼,這有助於理解後面的爭議為什麼這麼大。打一個不太嚴謹的比方:如果把蛋白質想像成一把鎖,藥物分子就是鑰匙。AlphaFold 做的事情,是幫你看清這把鎖長什麼樣。但光看到鎖還遠遠不夠——你得知道鑰匙插進去能不能轉動,轉得緊不緊,甚至你得發現鎖上還有沒有別的你根本沒注意到的鑰匙孔。IsoDDE 要回答的就是這些更難的問題。它是一個統一引擎,把結構預測、結合強度計算、隱藏結合位點發現等能力整合在一起。數字很能直觀說明問題。在一項專門考驗 AI 能否處理「從沒見過的」新蛋白結構的測試中(Runs N' Poses 基準),當測試樣本跟訓練資料的相似度低到 0-20% 時(這是最難的情況),IsoDDE 的成功率是 AlphaFold 3(AF3)的兩倍多。60 個最難案例裡,有 17 個案例是 AlphaFold 3 徹底失敗而 IsoDDE 做對了。AlphaFold 3 在此示例中失敗,IsoDDE 正確在預測抗體如何識別靶標這件事上,IsoDDE 的高精度預測成功率是 AlphaFold 3 的 2.3 倍,是另一個主流開源模型 Boltz-2 的近 20 倍。最令同行驚訝的是結合親和力預測——也就是判斷藥物分子和靶點結合得有多緊。這個任務傳統上依賴一種叫 FEP 的物理模擬方法,計算成本極高,需要實驗室提供晶體結構作為起點。IsoDDE 在多個公開測試中不僅全面超過所有 AI 方法,甚至超過了 FEP,而且它根本不需要任何實驗資料做起點。技術報告裡還有一個特別漂亮的案例。有一個叫 cereblon 的蛋白,科學家們花了 15 年,一直以為它只有一個藥物結合位點。直到今年年初,一篇新論文才通過實驗發現了第二個隱藏的結合位點。而 IsoDDE 僅僅輸入這個蛋白的氨基酸序列,就把兩個位點全部找了出來——包括那個藏了 15 年的。實驗室要做同樣的事,需要昂貴的晶體浸泡實驗和大量時間。IsoDDE 只要幾秒鐘。AlQuraishi 說,他最震撼的是 IsoDDE 在完全陌生的分子體繫上展現出的泛化能力,「這說明他們一定做了非常新穎的東西」。閉源:故事真正令人不安的部分如果 IsoDDE 是一個普通的商業軟體,閉源天經地義,沒什麼好說的。問題在於,它的前身 AlphaFold 代表著一種截然不同的價值觀。AlphaFold 2 在 2021 年開源,配套論文發表在 Nature 上,預測結果免費向全球開放。這件事的意義遠超技術本身——它證明了一種可能性:由科技巨頭資助的前沿 AI 研究,可以真正成為全人類的公共品。超過 300 萬科學家用它做了自己的研究,無數項目因此加速,生物學的整條河流被它改變了流向。2024 年的 AlphaFold 3 同樣發表了論文,雖然程式碼開放原始碼的速度引發過爭議,但最終也面向學術界開放。IsoDDE 打破了這個傳統。27 頁技術報告裡幾乎沒有模型架構和訓練方法的任何細節。Nature 的報導副標題直截了當:科學家們「只能猜測如何實現類似的結果」。Jaderberg 對 Nature 說的話耐人尋味。他說希望這份報告能「激勵」其他團隊。但 AlQuraishi 的反應恐怕更能代表學術界的真實感受:「問題在於,我們對細節一無所知。」有人覺得 Isomorphic Labs 作為商業公司保護自己的核心技術合情合理。這當然沒錯。但值得追問的是:當 AI 在科學領域的能力越來越強、越來越集中在少數公司手裡時,這些能力的開放程度,誰來決定?Isomorphic Labs 已經拿到 6 億美元融資,跟禮來和諾華簽了潛在價值近 30 億美元的合作協議,內部運行著 17 條藥物管線。Hassabis 今年 1 月在達沃斯說,首批 AI 設計藥物預計 2026 年底進入臨床試驗。這家公司正在從一個科研機構變成一台商業機器。武田製藥的計算結構生物學家 Diego del Alamo 指出了另一個微妙之處:Isomorphic Labs 此前投入大量精力與藥企合作,可能獲得了大量私有實驗資料。這些額外資料對 IsoDDE 性能的貢獻有多大,外界無從知曉。如果核心優勢來自資料壁壘而非演算法創新,那所謂的「激勵」就更像是一種姿態。開源陣營並沒有認輸閉源引發焦慮,但也引燃了競爭。Boltz-2 的聯合開發者、非營利公司 Boltz 的創始人 Gabriele Corso 態度很明確:他不認為私有資料是關鍵因素,因為公開資料中仍然有大量改進空間。IsoDDE 設定了一個新的性能基線,「需要追趕,也完全可以超越」。另一家公司 Deep Origin 更為高調,直接在 IsoDDE 發佈次日發聲明說,自家的 DODock 引擎在 2025 年 8 月就已經在同一基準測試上達到了可比的性能水平——用的是完全不同的技術路線。https://www.globenewswire.com/news-release/2026/02/11/3236623/0/en/Deep-Origin-Congratulates-Isomorphic-Labs-on-Catching-Up.html開源社區過去兩年也沒閒著。AlphaFold 3 發佈後,多個團隊已經做出了接近甚至部分超越它的開源模型,包括 Boltz-1/2、Chai-1、Protenix 等。AI 製藥領域正在重演大語言模型領域的劇本:一家公司亮出驚豔的閉源成果,整個開源社區迅速跟進,差距從代際縮小到可以追趕的距離。但這裡有一個關鍵區別。語言模型的訓練資料:網際網路文字,是近乎無限的公共資源。而 AI 製藥的訓練資料,特別是高品質的蛋白質-藥物實驗資料,其中相當一部分掌握在藥企手中。如果閉源模型的護城河建立在私有資料上,開源追趕的難度就大得多。關上的門這件事的影響可能超出藥物研發領域本身。過去幾年,「AI 開源推動科學進步」是一個被廣泛接受的敘事。AlphaFold 是這個敘事最有力的證據。每當有人質疑科技巨頭的AI研究到底惠及了誰,AlphaFold 都是最好的回答——看,全世界 300 萬科學家都在免費用它。如今,當 AlphaFold 的直系後代選擇閉源,這個敘事被撕開了一道口子。它暗示了一種可能的未來走向:AI 在基礎科學領域最強大的工具,逐漸從公共品變成商業資產;突破性的成果以技術報告而非同行評審論文的形式發佈;學術界能看到結果,但永遠看不到方法。Hassabis 曾經說過,AI 應用於科學,是比語言模型更豐富的事業。這話沒錯。但豐富的前提是開放。當最強的科學 AI 只對付費客戶敞開,科學共同體裡的絕大多數人就只能在圍欄外面看著。AlphaFold 的諾貝爾獎章上刻著的,是把知識給予所有人的理想。IsoDDE 的技術報告裡寫著的,是一個更強大的未來。兩者之間的距離,就是這個時代正在做出的選擇。 (新智元)
AI程式設計時代來了!馬斯克預言:年底不用再寫程式碼
馬斯克表示,AI將直接編寫二進制程式碼,且AI生成的二進制程式碼將比任何編譯器生成的都要高效。“到今年年底,我們甚至不再需要程式設計。”日前,馬斯克在一段發佈的視訊中如是說,AI將直接編寫二進制程式碼,且AI生成的二進制程式碼將比任何編譯器生成的都要高效。他預測,隨著AI技術的持續發展,人類對程式語言的依賴將會逐漸減弱。AI 系統可能自行完成從需求到可執行程序的整個工作流程,因此,程式設計將作為過時的中間步驟被時代拋棄,這將顯著縮短“從提出創意到執行落地”的距離。未來,程式設計這種職業或將不復存在。雖說馬斯克這番話引發了業內不少爭議,畢竟更多人更傾向於將AI看作“輔助”而不是“取代者”,但這番言論無疑為本就火熱的AI程式設計賽道又添了一把火。無獨有偶,近幾日國產AI的“春節檔”上新潮中,不少都瞄準了AI程式設計。例如字節2月14日更新的豆包2.0系列中,便包含Code模型,專為程式設計場景打造,強化程式碼庫解讀能力、提升應用生成能力、增強模型在Agent工作流中的糾錯能力;MiniMax 2月12日上線最新旗艦程式設計模型MiniMax M2.5,是全球首個為Agent場景原生設計的生產級模型,支援PC、App、跨端應用的全端程式設計開發;智譜在2月11日推出新一代旗艦模型GLM-5,內部評估顯示,其在前端、後端等程式設計開發場景中平均性能較上一代提升超20%;至於有望在春節期間亮相的DeepSeek V4,據媒體消息和機構報告顯示,程式設計能力或是其“王牌”。值得注意的是,Anthropic也在《2026年智能體編碼趨勢報告》中指出,傳統軟體開發的遊戲規則正在被徹底改寫。一個曾預計需要4到8個月的項目,使用Claude大模型後僅用兩周就完成。《報告》明確指出,程式設計師這一職業並不會消失,但那些“只會寫程式碼”的程式設計師將逐漸被市場淘汰。Anthropoic的Claude可以說是海外AI程式設計的龍頭。而在AI 賦能軟體開發各環節帶來效率提升較為明顯的情況下,以Claude 為代表的大模型和以Cursor為代表的IDE 工具營收快速增長,已體現出較好的商業化效果。廣發證券指出,與海外AI 輔助程式設計工具相比,國產AI 程式碼輔助工具產品具有兩個特點:一是呼叫國產AI 大模型的比例較高;二是儘管國產AI輔助程式設計工具在功能性上與Cursor 等海外產品有一定差距,但其使用價格相對更低、性價比更高。Grand View Horizon資料顯示,2024年全球AI 程式碼工具市場價值61億美元,預計到2030 年將達到260億美元,2024-2030年復合年增長率為27.1%。由於AI 程式設計直接作用於核心的開發環節,券商認為其有望成為最具價值的AI 應用之一。國聯民生證券認為,國內頭部開源大模型持續發力AI 程式設計,國內IDE 以及各類低程式碼平台有望明顯受益,依託頭部開源模型,IDE 及低程式碼平台的產品力有望持續提升,並加速在各個垂直細分領域的滲透以及企業級應用的落地,建議重點關注卓易資訊、普元資訊、金現代等公司。 (科創板日報)
當 AI,開始設計 AI
這不是科幻片,而是 2026 年 2 月剛剛發生的現實。如果有人在 2020 年告訴你,「六年後,AI 會自己設計下一代 AI」,你大概會覺得這是天方夜譚。但就在上周,OpenAI 的 GPT-5.3-Codex 和 Anthropic 的 Claude Opus 4.6 同日發佈,兩家公司不約而同地宣佈了一個令人震驚的消息:這些 AI 模型,已經能夠有意義地參與改進自己。這只是 2026 年初,中國農曆馬年春節之前的「AI 春運」大戰的開始,但很有可能多年後重新回頭看,這可能是一個 AI 進化史上的重要節點——人工智慧,已經開始非常熟練地,設計和並建造下一代人工智慧了。更重要的是,這對使用者——人類——來說,到底意味著什麼?作者 Matt Shumer 在文章中為大家拆解了,為什麼現在,可能正是這樣一個節點時刻。01自我進化的「潘多拉魔盒」已開啟OpenAI CEO Sam Altman 在 Twitter 上興奮地表示:「我喜歡用這個模型建構;感覺比基準測試所示的進展更大。能以 5.3-Codex 來開發 5.3-Codex 的速度,這是未來的一個訊號。」這句話背後的含義讓人細思極恐。Anthropic CEO Dario Amodei 更是直接承認:「我們基本上已經讓 Claude 設計下一版本的 Claude 本身,不是完全地,也不是在所有方式上,但在很多方面,這個循環開始快速閉合。」或許,我們正在見證 AI 發展史上最重要的一個拐點:從人類設計 AI,到 AI 協助設計 AI,再到 AI 主導設計 AI。這個過程比任何人預想的都要快。但現實遠比宣傳複雜。Medium 分析師 Alex Carter 在 48 小時實測後潑了一盆冷水:Codex 5.3「感覺倉促。行銷承諾與現實不符。它聲稱『幫助自己建設』聽起來令人印象深刻,直到你意識到它無法可靠地建構登錄系統。」這種巨大的期望差距恰恰暴露了當前 AI 自我改進的真實狀態:概念已經突破,但實際能力仍在爬坡。02知識工作體系的重構更值得關注的是這背後的連鎖反應。如果 AI 真的能自我迭代最佳化,那麼依賴知識積累和經驗傳承的工作,將面臨根本性衝擊。這不是簡單的「AI 取代人類」,而是整個知識工作體系的重構。技術分析師 Sebastian Raschka 在《State of LLMs 2025》中指出,2026 年的進展「主要來自推理而非純粹的訓練方面」,進步出現在「架構調整、資料質量改進、推理訓練、推理擴展和工具呼叫」等多個維度。這意味,AI 不再是單純的工具,而是開始具備「思考如何更好地思考」的元認知能力。我們可以想像這樣的場景:一個法律 AI 不僅能處理案例,還能分析自己在處理過程中的不足,並設計改進方案;一個醫療診斷 AI 不僅能看病,還能反思自己的診斷邏輯,最佳化決策路徑。當 AI 開始擁有自我反思和改進的能力,人類在知識工作中的獨特優勢——經驗積累、模式識別、創新思維——還能保持多久?03掌控權還在人類手中... 嗎?但最讓人擔憂的不是就業問題,而是控制權問題。AI 安全研究者 Jared Kaplan 一針見血地指出:「當 AI 開始獨立設計下一代 AI 時,它使用的最佳化路徑可能完全超出人類認知範圍... 我們無法檢查是否有『特洛伊木馬』或錯位的目標函數隱藏其中。」這就是 AI 自我改進的核心悖論:我們需要足夠智能的 AI 來解決複雜問題,但當 AI 智能到可以改進自己時,我們可能就失去了理解和控制它的能力。HackerNews 和 Reddit 社區的討論也反映了這種擔憂。使用者們質疑基準測試結果,認為 GPT-5.3 和 Claude Opus 4.6 的性能資料,可能存在「不同的基準測試或資料解釋」問題。更重要的是,當 AI 能夠自我改進時,傳統的評估和監管體系都可能失效。Interconnects AI 分析師 Nathan Lambert 的觀察很有啟發性:「我們正在走向一個 AI 世界,其中與模型發佈相關的基準,不再對使用者傳達有意義的訊號。」換句話說,我們甚至可能無法精準衡量,這些自我改進的 AI 到底有多強。Fello AI 的分析報告顯示,2024 年近 90% 的著名 AI 模型來自工業界,OpenAI 不再主要與研究實驗室競爭,而是「與超大規模計算公司、晶片製造商和資金充足的 AI 優先公司競爭」。在這場競賽中,自我改進能力已經成為必爭之地。誰先實現真正的 AI 自我迭代,誰就能在未來五年的知識工作革命中佔據主導地位。就像 Matt Shumer 在文章開頭提到的 2020 年 2 月——如果你當時足夠敏銳,你會注意到「有幾個人在談論海外傳播的病毒(新冠)」。現在,我們也處在這樣一個歷史轉折點:AI 自我改進的種子已經種下,接下來的五年,整個知識工作的生態都將被重新定義。問題不再是「會不會發生」,而是「我們準備好了嗎」。 (極客公園)
GitHub 上,人類已經幹不過 AI 了
今年,GitHub 上,AI 提交量佔比將達到 20%如果幾年前有人跟碼農同學說,「你以後可能要和 AI 搶 GitHub 提交記錄了」,他大概會笑掉大牙。但現在,他可能完全笑不出來了。根據 SemiAnalysis 最新發佈的分析報告,Anthropic 的 Claude Code,目前已經貢獻了 GitHub 上 4% 的公開提交量,並且有望在 2026 年底:達到 20% 的日提交量。這不是一個簡單的數位遊戲。當一個 AI 工具開始在全球最大的程式碼託管平台上「刷存在感」,它實際上正在重新定義什麼叫「寫程式碼」。01. AI「霸榜」GitHub4% 看起來並不是個很大的數字,但可怕的是這個數字背後的意義。GitHub 每天的提交量是一個天文數字。全球數千萬程式設計師在這個平台上推送程式碼、修復 bug、發佈新功能。而現在,每 25 次提交中,就有 1 次來自 AI。Anthropic Claude Code 負責人 Boris Cherny 在 X 上毫不避諱地「炫耀」:他的團隊現在 100% 使用 Claude Code 寫程式碼,連小的編輯都不再手動操作。更誇張的是,他們用一周半時間就用 Claude Code 建構了 Cowork 應用。這種效率提升不是線性的,而是指數級的。但真正讓人震撼的不是速度,而是質量。一位企業使用者透露,他 80% 的時間在使用 Claude Code,剩下 20% 用其他工具。「我的公司為 Claude Code 付費,我甚至不看成本。」這句話很有意思——當一個工具好用到讓人「不看成本」,說明它創造的價值,已經遠超價格。曾有業內人士曾這樣評價 AI Coding 的優勢:「AI 能繞過官僚主義。如果猶豫不決會讓大型組織陷入癱瘓,AI 不在乎。它會愉快地生成一個版本 1。」這句話點出了 AI 程式設計的核心優勢——沒有包袱,沒有猶豫,沒有「完美主義焦慮」。02. 程式設計師的「存在危機」但硬幣總有兩面。在 Hacker News 上,一位使用者分享了他的挫敗感:「多次我希望程式碼看起來是某種樣子,但它不斷拉回到它想要做事情的方式... 最終,我發現不與它爭鬥、讓它按照它想要的方式做事情更容易。」這段話透露出一個微妙的權力轉移:從「人指導 AI」到「人適應 AI」。Every 公司 CEO Dan Shipper 在部落格中寫道:「我們正處於自主程式設計的新時代。你可以在不看一行程式碼的情況下建構令人驚嘆的複雜應用程式。」聽起來很美好,但這也意味著傳統意義上的「程式設計師」,正在消失。如果你不需要看程式碼就能建構應用,那「會寫程式碼」,還算是一種核心技能嗎?SemiAnalysis 的分析師預測,這個趨勢將推動 Anthropic 在 2026 年實現爆發性增長,甚至超越 OpenAI。相比之下,GitHub Copilot 和 Office Copilot 雖然領先了一年,但「幾乎沒有作為產品取得任何進展」。這個對比很殘酷,也很說明問題:在 AI 時代,先發優勢可能不如產品體驗重要。03. 重新定義「程式設計師」但程式設計師同學可能不需要過分焦慮,程式設計師這個崗位不會消失,只是這個職業的定義在改變。就像 Dan Shipper 說的,即使在 2025 年,「你仍然需要真正理解底層架構,也許你仍然需要去查看程式碼」。但這個「需要」的含義已經不同了。程式設計師正在從「程式碼編寫者」變成「AI 協調者」。你需要知道如何與 AI 對話,如何審查它的輸出,如何在它犯錯時糾正它。你需要理解系統架構,但不一定需要親自實現每一行程式碼。一位 Google 工程師的反思很有代表性:社區對 AI 程式設計能力的討論「緊張」,一方面驚嘆於能力的提升,另一方面擔心被替代。但他強調,領域專業知識仍然重要,原型和生產環境之間的差距仍然存在。當 AI 程式設計足夠便宜、足夠好用,整個軟體開發的經濟學都會改變。也許 20% 的 GitHub 提交量只是開始。也許幾年後,我們會看到 50%、80%,甚至更高的比例來自 AI。這未必意味末日,而是一個新開始。真正的程式設計師不會被 AI 替代,而會學會如何讓 AI 成為最強大的工具。就像計算器沒有讓數學家失業一樣,AI 也不會讓程式設計師失業——它只會讓那些拒絕進化的人失業。程式碼即是機器語言,是 AI 的母語,將機器語言交還給機器本身,人類用自然語言描述 Idea,看起來似乎是個更自然的結果。 (極客公園)
再見,程式設計師!馬斯克預言2026年AI改變世界,進入奇點之年!
不用多說,相信每個人的時間線全被Claude Code刷屏了。馬斯克甚至斷言,「我們已進入奇點!2026年就是奇點之年」。這幾天,Claude Code在全網掀起的陣仗可真不小。一睜眼,地球首富馬斯克重磅宣告:我們已進入奇點!起因竟是,Midjourney創始人公開稱,聖誕假期自己敲的程式碼,比過去十年加起來還要多,簡直太瘋狂。「雖然能感到侷限,但我知道一切都不再一樣了」。同一天,馬斯克不止一次,直接宣稱「2026年就是奇點之年」。這個點評同樣是對Claude Code的高度讚揚。如今,包括Anthropic之父、前DeepMind/OpenAI研究員、Google首席工程師等大佬在內,都為其感到震驚。馬斯克:2026,奇點降臨一直以來,奇點這一概念就像科幻詞一般的存在。雷·庫茲維爾曾在2005年《奇點臨近》一書中,預測道技術奇點大約發生在2045年。而在最新出版的《奇點更近》著作中,他再次重申奇點時間:仍是2045年。誰曾想,這個看似還很遙遠的時刻,一下子被拉到了現在——2026年。所謂的技術奇點,是指技術在長期內增長緩慢,但在某個臨界點急劇加速,呈指數式上升。能夠讓馬斯克有這麼深感觸,竟是Claude Code席捲全網的強大程式設計能力。一點也不誇張地說,2026年開年這局,身邊的人都瞬間成為了Claude Code使用者。生物醫學工程師Derya Unutmaz雖不是專業程式設計師,升級訂閱就是為了更頻繁使用Claude Code。就連xAI聯創Igor Babuschkin感慨道,「有些年頭風平浪靜,啥大事沒有,可有些星期卻濃縮了數十年的變遷」。一夜之間,Claude Code為何變得這麼強了?真正的「民間高手」:Claude Opus精準來說,不是它變強了,而是一直就很強。去年11月底,超大杯Claude Opus 4.5一出世,Anthropic便宣稱其是全球最頂尖的編碼模型。內部測試中,Opus 4.5+Claude Code聯動使用,平均效率暴增220%。當時,Anthropic工程師預言,也許就在2026年上半年,軟體工程就被終結了。如今看來,可能就在最近了。剛剛,在最新升級的LiveBench榜單上,Claude Opus 4.5登頂,直接碾壓GPT-5.1 Codex MAX、Gemini 3 Pro。創始人Bindu Reddy稱,在聖誕假期期間,團隊改進了LiveBench,為了防止AI刷分作弊。這個排名在很大程度上,反映了這些LLMs在現實世界中的表現。去年12月,METR的一份報告揭秘了,全球最能打的AI還是Claude Opus 4.5。它在自主編碼任務中,能夠連續5小時不崩,也是迄今為止公開的AI完成長程任務時間最長的模型。AI大佬Simon Willison表示,Opus 4.5和GPT-5.2就像是一個轉折點。「模型逐步跨越到了一個隱形能力界限的時刻,忽然間,大量的編碼難題都被解決了」。即便是程式設計0經驗的人,也能在不到十分鐘的時間,打造出一款功能齊全的網頁應用。就像網友所言,如果不出意外的話,Claude Code可能會讓更多人成為百萬富翁。人類的最後一次發明如果我們翻開哲學家戴維·查爾默斯(David J. Chalmers)那篇經典的《奇點:哲學分析》,會發現當下的瘋狂景象,不過是這套嚴密邏輯推演的必然兌現。論文地址:https://consc.net/papers/singularity.pdf在查爾默斯的推導模型中,我們正處於一個被稱為「擴展前提(Extension Premise)」的關鍵節點。他將這一過程量化為從AI到AI+再到AI++的階躍:AI:人類水平的人工智慧。AI+:超越人類最強大腦的智能。AI++:超級智能,其超越程度正如人類超越老鼠一般。正如查爾默斯引用的I.J. Good在1965年的那個著名論斷:「超智慧型手機器(Ultraintelligent Machine)將是人類需要製造的最後發明」。邏輯非常性感且冷酷:機器設計機器:既然設計機器本身是一種智力活動,那麼一台超越人類的機器(AI+),必然能設計出比人類所能設計的更好的機器。遞迴的雪崩:這台被AI+設計出的新機器,擁有更強的設計能力,它將設計出下一代更強的機器。無限逼近:只要這台機器能通過編寫程式碼來最佳化自身,我們將無可避免地迎來一場「智能爆炸」。我們現在看到的,正是查爾默斯所描述的「速度爆炸」與「智能爆炸」的完美合流。當模型開始比人類更擅長最佳化演算法時,我們就不再是處於一個線性的增長曲線上,而是站在了垂直牆面的底端。每個人都會成為軟體工程師奇點來臨的那一刻,世界會有什麼不同?Google工程師Vaibhav Agarwal稱,自己再也不用寫程式碼了,現在70%-80%程式碼都是AI寫的。而他的工作僅是「程式碼審查」,角色發生了根本性的轉變,具體是這麼做的:• 不再輸入語法,用提示詞(Prompt)來定義邏輯;• 不再費力找 bug,而是審查AI給出的修改建議;• 不再硬啃遺留程式碼,直接讓AI把它講明白。許多工程師對此感到內疚,覺得自己像是在「作弊」。實際上並不是,他們是在進化。Agarwal曾問過一位資深領導,關於一個所有人都害怕的問題:AI會取代我們嗎?他是這麼說的——AI是一個效率倍增器,而不是替代品。如果你過去每周完成1倍的工作量,現在預期則是,同一周內完成4倍的工作量。沒有任何一家公司希望倒退。如今,衡量「生產力」的標準已經被整體抬高了。如果你因為自稱是個「純粹主義者」而拒絕使用 AI,那並不高尚——你只是慢了。AI不會取代你。但一個借助AI、能完成4倍工作量的工程師……滿足網友的好奇,工程師用的是自家的GeminiHyperbolic創始人Yuchen Jin直言不諱,要是在讀博期間有這些強大工具助力,自己不用耗費5.5年,可能一年就畢業了。此前,奧特曼在採訪中還曾表示,「用不了多久,每個人都會成為軟體工程師」。他隨口拋出了一個關於未來工作方式和軟體世界的超級觀點,但很多人還沒意識到這件事有多重要。核心想法其實很簡單,自然語言,就是新的程式設計語法。程式設計師大軍終結,不需要龐大的開發團隊才能做出第一個版本。只需描述出需求,AI直接把它做出來。在複雜系統中,AI智能體會直接「住」在程式碼庫裡。它們會自己瀏覽repo、修復bug、補測試、重構程式碼,並自動提交修改。一旦軟體開發被自動化,同樣的邏輯也會蔓延到營運、規劃,甚至部分管理工作。程式碼,只是倒下的第一塊多米諾骨牌。如果這一切真的發生,「學會寫程式碼」本身就沒那麼重要了。 (王晶華說AI)
卡帕西"AI程式設計師論"刷屏,發佈一天,400萬人圍觀,年底大焦慮,傳統程式設計師已落後,程式設計本質徹底變了
AI大神卡帕西引爆程式設計師焦慮潮:程式設計職業遭遇“9級地震”,人類正在淪為AI的副駕駛?“作為一名程式設計師,我從未感到如此落後。”卡帕西今天在社交平台上的發言瞬間刷屏(不到1天,已經近500萬圍觀)。這位AI領域標誌性人物坦言,程式設計職業正在被徹底重構。他描述道,程式設計師的直接程式碼貢獻越來越稀疏。如今他感覺自己本可以強大10倍。卡帕西列出了一長串需要掌握的新概念:智能體、子智能體、提示詞、上下文、記憶、模式、權限、工具、外掛、技能、鉤子……卡帕西坦言,程式設計職業正在經歷一場“9級地震”。這位OpenAI前創始人、在特斯拉領導AI部門的大神級人物,突然發現自己“前所未有地落後”。“如果我能夠恰當地串聯起過去一年中出現的技術,我的能力本可以增強10倍,”卡帕西寫道,“但如果不能抓住這次升級機會,那絕對是一個技能問題。”在AI工具迅速發展的今天,純粹的技術知識和深度專業能力已不能保證行業領先地位。新的技術堆疊不再是關於理解Transformer架構或編寫優雅演算法。程式設計的本質正在發生深刻變化:從編寫確定性的程式碼,轉向協調一群無人能完全控制的隨機系統。卡帕西列舉了15個在18個月前甚至不存在的新程式設計“基元”:智能體、子智能體、提示詞、上下文、記憶、模式、權限、工具、外掛、技能、鉤子、MCP、LSP、斜槓命令、工作流、IDE整合。這些概念每一個都在以周為單位演化,程式設計師需要建立全新的心智模型來應對這個充滿不確定性的新世界。傳統工程提供的是確定性系統——編寫程式碼,它就嚴格按編寫的內容執行。而現在,程式設計師需要管理“本質上是隨機、易錯、難以理解且不斷變化” 的實體。卡帕西將其比喻為“沒有說明書的外星工具”。整個行業都在即時反向工程這些能力,文件總是過時,三個月前的最佳實踐現在可能已經錯誤。“卡帕西在年底前給整個網際網路帶來了一場存在主義焦慮症,”一位Google員工在轉發時寫道。輝達大神總結道:“2024年:AI是副駕駛;2025年後:人類是副駕駛。Copilot正成為一種新的工程技能。”離開駕駛員座位並不容易,我們必須學會以AI的方式思考,適應陌生的“外星”工作流程。幫助AI,就是幫助我們自己。但也有開發者持樂觀態度:“這是多年來成為開發者最有趣的時刻。AI工具尚不完美,模式仍在形成,有真正的實驗空間。挽起袖子,開始建造吧。”這位開發者補充說,地震正在進一步拓展可能性邊界。關於這個新抽象層最好的消息是:傳統工程技能比以往任何時候都更有價值,而不是貶值。早期在CI/CD、測試、文件和程式碼審查上投入的開發者,在使用AI工具方面最為成功。這些“無聊”的基礎設施成了加速器。它們將智能體從混亂生成器轉變為生產力倍增器。真正的機會在於學習在不同高度上工作。開發者不再需要逐行鍵入語法,而是審查實現、捕捉邊界情況,並在幾小時內完成過去需要數天的功能開發。這確實令人興奮。學習曲線確實存在。理解如何提供上下文、迭代計畫並快速審查AI生成的程式碼需要實踐,但這是可以通過實踐學習的。“人類成為AI副駕駛”的觀念正在技術圈蔓延。這種角色轉換標誌著程式設計工作本質的根本性變革。面對這個新抽象層,傳統工程技能實際上變得更加重要。它們幫助我們最大程度減少交付低品質程式碼的可能性。已經投資於CI/CD、測試、文件和程式碼審查的開發者在使用AI工具方面最為成功。這些“枯燥”的基礎成為了加速器。真正的機會在於學習在不同的高度工作,從輸入語法轉向審查實現、捕獲邊界情況,並在數小時內完成過去需要數天的工作。面對卡帕西描述的程式設計職業“9級地震”,開發者應該如何應對?學習如何提供上下文、迭代計畫並快速審查AI生成的程式碼需要實踐,但這可以通過實際操作掌握——建構小工具、審查所有內容,通過重複培養直覺。當我們將AI的速度與工程判斷力結合時,倍增潛力是真實的。我們不是在取代程式設計技能,而是終於能夠將精力集中在有趣的問題上,同時將繁瑣的部分委託出去。地震已經發生,餘震成為新常態。卡帕西的警示提醒整個行業:要麼挽起袖子跟上,要麼被迅速拋在後面。這位AI先驅的“落後感”並非弱點展示,而是行業劇變的明確訊號。程式設計職業的重構已在進行中,新的抽象層正在形成,而每個人都在尋找掌握這個“外星工具”的方法。地震之後,餘震成為新常態。在程式設計這個曾經被確定性統治的領域,隨機性、不可預測性和持續變化正成為日常。 (三次方AIRX)